19 research outputs found

    Towards a Framework for Supporting User Satisfaction of Conversational Agents according to the Usability Norm DIN EN ISO 9241-11

    Get PDF
    The acceptance and use of conversational user interfaces (CUIs) which are for example used in Conversational Agents (CAs) such as Alexa and Siri are crucially dependent on their usability—which is often lacking in practice according to user reviews. Referring to the usability norm DIN EN ISO 9241-11, a usable product, system or service can be used to achieve specified goals with high levels of effectiveness, efficiency, and satisfaction. However, in the case of conversational agents, the bidirectional interaction experience differs from the use of other input devices. We are proposing a conceptual framework for evaluating the design of CAs with regard to the interaction principles as per DIN EN ISO 9241-110. To increase the level of satisfaction in particular, we focus on the new principle of user engagement in order to ensure trust and welfare and specifically self-determination to ensure the success and positive user experience of CUIs

    CMS physics technical design report : Addendum on high density QCD with heavy ions

    Get PDF
    Peer reviewe

    „Im Wohnzimmer kriegt die schon alles mit“ – Sprachassistentendaten im Alltag

    No full text
    Sprachassistenten wie Alexa oder Google Assistant sind aus dem Alltag vieler VerbraucherInnen nicht mehr wegzudenken. Sie ĂŒberzeugen insbesondere durch die sprachbasierte und somit freihĂ€ndige Steuerung und mitunter auch den unterhaltsamen Charakter. Als hĂ€uslicher Lebensmittelpunkt sind die hĂ€ufigsten Aufstellungsorte das Wohnzimmer und die KĂŒche, da sich Haushaltsmitglieder dort die meiste Zeit aufhalten und das alltĂ€gliche Leben abspielt. Dies bedeutet allerdings ebenso, dass an diesen Orten potenziell viele Daten erfasst und gesammelt werden können, die nicht fĂŒr den Sprachassistenten bestimmt sind. Demzufolge ist nicht auszuschließen, dass der Sprachassistent – wenn auch versehentlich – durch GesprĂ€che oder GerĂ€usche aktiviert wird und Aufnahmen speichert, selbst wenn eine Aktivierung unbewusst von Anwesenden bzw. von anderen GerĂ€ten (z. B. Fernseher) erfolgt oder aus anderen RĂ€umen kommt. Im Rahmen eines Forschungsprojekts haben wir dazu NutzerInnen ĂŒber Ihre Nutzungs- und Aufstellungspraktiken der Sprachassistenten befragt und zudem einen Prototyp getestet, der die gespeicherten Interaktionen mit dem Sprachassistenten sichtbar macht. Dieser Beitrag prĂ€sentiert basierend auf den Erkenntnissen aus den Interviews und abgeleiteten LeitfĂ€den aus den darauffolgenden Nutzungstests des Prototyps eine Anwendung zur Beantragung und Visualisierung der Interaktionsdaten mit dem Sprachassistenten. Diese ermöglicht es, Interaktionen und die damit zusammenhĂ€ngende Situation darzustellen, indem sie zu jeder Interaktion die Zeit, das verwendete GerĂ€t sowie den Befehl wiedergibt und unerwartete Verhaltensweisen wie die versehentliche oder falsche Aktivierung sichtbar macht. Dadurch möchten wir VerbraucherInnen fĂŒr die FehleranfĂ€lligkeit dieser GerĂ€te sensibilisieren und einen selbstbestimmteren und sichereren Umgang ermöglichen

    Challenges and concepts for the evaluation of usable and satisfying VAs according to DIN EN ISO 9241‐11 and ‐110

    No full text

    User-friendly Explanatory Dialogues

    No full text
    When dialogues with voice assistants (VAs) fall apart, users often become confused or even frustrated. To address these issues and related privacy concerns, Amazon recently introduced a feature allowing Alexa users to inquire about why it behaved in a certain way. But how do users perceive this new feature? In this paper, we present preliminary results from research conducted as part of a three-year project involving 33 German households. This project utilized interviews, fieldwork, and co-design workshops to identify common unexpected behaviors of VAs, as well as users’ needs and expectations for explanations. Our findings show that, contrary to its intended purpose, the new feature actually exacerbates user confusion and frustration instead of clarifying Alexa's behavior. We argue that such voice interactions should be characterized as explanatory dialogs that account for VA’s unexpected behavior by providing interpretable information and prompting users to take action to improve their current and future interactions

    A Qualitative Exploration of User-Perceived Risks of AI to Inform Design and Policy

    No full text
    AI systems pose unknown challenges for designers, policymakers, and users which aggravates the assessment of potential harms and outcomes. Although understanding risks is a requirement for building trust in technology, users are often excluded from legal assessments and explanations of AI hazards. To address this issue we conducted three focus groups with 18 participants in total and discussed the European proposal for a legal framework for AI. Based on this, we aim to build a (conceptual) model that guides policymakers, designers, and researchers in understanding users’ risk perception of AI systems. In this paper, we provide selected examples based on our preliminary results. Moreover, we argue for the benefits of such a perspective

    "Miss understandable": a study on how users appropriate voice assistants and deal with misunderstandings

    No full text
    Diese Studie untersucht die Aneignung und Nutzung von Sprachassistenten wie Google Assistant oder Amazon Alexa in Privathaushalten. Unsere Forschung basiert auf zehn Tiefeninterviews mit Nutzern von Sprachassistenten sowie der Evaluation bestimmter Interaktionen in der Interaktionshistorie. Unsere Ergebnisse illustrieren, zu welchen AnlĂ€ssen Sprachassistenten im heimischen Umfeld genutzt werden, welche Strategien sich die Nutzer in der Interaktion mit Sprachassistenten angeeignet haben, wie die Interaktion ablĂ€uft und welche Schwierigkeiten sich bei der Einrichtung und Nutzung des Sprachassistenten ergeben haben. Ein besonderer Fokus der Studie liegt auf Fehlinteraktionen, also Situationen, in denen die Interaktion scheitert oder zu scheitern droht. Unsere Studie zeigt, dass das Nutzungspotenzial der Assistenten hĂ€ufig nicht ausgeschöpft wird, da die Interaktion in komplexeren AnwendungsfĂ€llen hĂ€ufig misslingt. Die Nutzer verwenden daher den Sprachassistenten eher in einfachen AnwendungsfĂ€llen und neue Apps und AnwendungsfĂ€lle werden gar nicht erst ausprobiert. Eine Analyse der Aneignungsstrategien, beispielsweise durch eine selbst erstellte Liste mit Befehlen, liefert Erkenntnisse fĂŒr die Gestaltung von UnterstĂŒtzungswerkzeugen sowie die Weiterentwicklung und Optimierung von sprachbasierten Mensch-Maschine-Interfaces.This study examines the appropriation and usage of voice assistants like Google Assistant or Amazon Alexa in private households. Our research is based on 10 in-depth interviews with users of voice assistants and a follow-up evaluation of their interaction histories. Our results illustrate situations in which the voice assistants were used at home, what strategies the users adopted to interact with them, how the interactions were performed, and what difficulties users experienced. A focus of our study is on misunderstandings, situations where interactions failed partially or completely. Our study shows that the full potential of voice assistants is often not utilized, as complex interactions are often subject to failures and users revert to simple use cases. Our participants used their voice assistant mostly for simple commands, often not even trying new functions. An analysis of their appropriation strategies resulted in implications for the design of supportive tools as well as the further development and optimization of voice interfaces

    Alexa, We Need to Talk: A Data Literacy Approach on Voice Assistants

    No full text
    Voice assistants (VA) collect data about users’ daily life including interactions with other connected devices, musical preferences, and unintended interactions. While users appreciate the convenience of VAs, their understanding and expectations of data collection by vendors are often vague and incomplete. By making the collected data explorable for consumers, our research-through-design approach seeks to unveil design resources for fostering data literacy and help users in making better informed decisions regarding their use of VAs. In this paper, we present the design of an interactive prototype that visualizes the conversations with VAs on a timeline and provides end users with basic means to engage with data, for instance allowing for filtering and categorization. Based on an evaluation with eleven households, our paper provides insights on how users reflect upon their data trails and presents design guidelines for supporting data literacy of consumers in the context of VAs
    corecore